Dil Seçin

Turkish

Down Icon

Ülke Seçin

Mexico

Down Icon

"Bu bir yanılsama": Apple'ın yaptığı bir araştırma, yapay zeka hakkındaki en büyük efsaneyi çürütüyor.

"Bu bir yanılsama": Apple'ın yaptığı bir araştırma, yapay zeka hakkındaki en büyük efsaneyi çürütüyor.

Apple, birkaç gün önce yapay zeka (YZ) teknolojisinin söylemsel temellerinden biri olan ChatGPT gibi modellerin "akıl yürütme" yeteneği iddiasını doğrudan hedef alan bir çalışmanın yayınlanmasıyla dünyada bir tartışmaya yol açtı.

Düşünme Yanılsaması başlıklı makalede , görünüşe rağmen, üretken yapay zeka sistemlerinin insanlar gibi düşünmediği veya akıl yürütmediği ve hatta sergiledikleri "akıl yürütmenin" bile ters etki yaratabileceği savunuluyor.

Apple Machine Learning Research'teki bilim insanları tarafından yürütülen araştırma, Cupertino merkezli şirketin gelişmiş dil modelleri geliştirmede lider olan OpenAI , Google ve Anthropic gibi rakiplerinin gerisinde kaldığı bir zamanda geldi.

Bu nedenle birçok gözlemci, çalışmayı salt akademik bir katkı olmaktan ziyade, dışarıdaki anlatılara meydan okuma girişimi olarak değerlendirmekte gecikmedi.

Yine de, çalışmanın içeriği fark edilmeden kalmadı. Apple, bir yanıt sunmadan önce ara muhakeme üretmek için tasarlanmış Büyük Muhakeme Modelleri (LRM'ler) adı verilen yeni bir model kategorisi öneriyor. Amaç: mantıksal süreçlerin açıkça dahil edilmesinin farklı görev türlerinde AI performansını iyileştirip iyileştirmediğini değerlendirmek.

Apple, ChatGPT gibi modellerin düşünmediğini neden iddia ediyor?

"Düşünme Yanılsaması": Apple'ın yapay zekayı ifşa etmeye çalıştığı makale.

Eğitim sırasında öğrenilen verilerden kaynaklanan önyargılardan kaçınmak için araştırmacılar bu modelleri klasik Hanoi Kulesi, Dama Atlama, nehir geçişleri ve blok manipülasyon problemleri (Blocks World) gibi bir dizi sentetik bulmacaya tabi tuttular. Bu senaryolar özellikle mantıksal düşünme ve adım adım planlama gerektirecek şekilde tasarlandı .

Sonuçlar şaşırtıcıydı: LRM'ler orta karmaşıklıktaki problemlerde geleneksel modellere göre bir avantaj gösterse de, zorluk arttırıldığında tamamen çöktüler .

Üstelik bu çöküş, hesaplama kaynaklarının yetersizliğinden değil, daha şaşırtıcı bir olgudan kaynaklanıyordu: "Muhakeme çabaları, problemin karmaşıklığına göre belli bir noktaya kadar artıyor, daha sonra yeterli bütçeye sahip olmalarına rağmen azalıyor ."

Çarpıcı olan, basit testlerde, akıl yürütme modellerinin standart modellerden bile daha kötü performans göstermesidir . Yani, görevler gelişmiş mantık gerektirmediğinde, aşırı düşünme bir engel haline gelebilir .

Yazarlar, "Modellerin ilk başarısız hamlesini araştırmak şaşırtıcı bir davranış ortaya çıkardı. Örneğin, Hanoi Kulesi'nde 100'e kadar doğru hamle yapabildiler, ancak Nehir Geçişi bulmacasında 5'ten fazla doğru hamle yapamadılar" diye ekliyor.

Genel olarak çalışma, insan seviyesinde yapay zekaya veya hatta AGI'ye ( Yapay Genel Zeka ) doğru ilerlediğimize dair giderek yaygınlaşan anlatıya meydan okuyor gibi görünüyor.

Apple, bu fikrin bir yanılsamaya dayandığını, yani modellerin mantıksal adımları sözlü olarak ifade etme becerisini, sorunlara ilişkin gerçek bir anlayışla karıştırmak olduğunu öne sürüyor.

Bu anlamda, çalışmanın sonucu kategoriktir: akıl yürütme gibi görünen şey, öğrenilmiş kalıpların yankısından başka bir şey değildir . Yapay zeka, en azından şimdilik, akıl yürütmez: simüle eder . Ve simülasyon bilinen sınırlarının ötesine itildiğinde, bozulur .

Apple yapay zeka yarışında geride kalıyor

Apple'ın henüz eşit şartlarda rekabet edebilecek kendi modelini piyasaya sürmesi gerekiyor. (Fotoğraf: Reuters) Apple'ın henüz eşit şartlarda rekabet edebilecek kendi modelini piyasaya sürmesi gerekiyor. (Fotoğraf: Reuters)

Bu vizyon, modellerine açıkça akıl yürütme işlevlerini dahil eden diğer teknoloji devlerinin benimsediği yaklaşımla çelişmektedir. GPT-4 ile OpenAI , Gemini ile Google ve Claude ile Anthropic , daha otonom ve güvenilir sistemlere doğru bir adım olarak görülen bu yetenekleri güçlendirmeyi amaçlamaktadır.

Eleştirel tarafta, Apple'ın çalışmasının büyük bir kusuru ortaya çıkarmadığını, ancak iyi bilinen bir olguyu tanımladığını belirten birçok ses vardı: aşırı düşünme . Yani, bazı modellerin gereksiz yere uzun ve karmaşık akıl yürütmeler üretme eğilimi, bu da hatalara veya çökmelere yol açabilir.

Ayrıca, rakipleriyle aynı seviyede kendi yapay zekası olmayan Apple'ın, diğer insanların ilerlemelerini itibarsızlaştırmak için bir teşviki olup olmadığı konusunda da sorular var. Şirket, OpenAI gibi oyuncularla ortaklıklarını sürdürüyor ancak henüz eşit şartlarda rekabet eden kendi dil modelini piyasaya sürmedi .

Makalenin ardındaki niyetlerin ötesinde, gerçek şu ki Apple masaya önemli bir tartışma getirmeyi başardı: "Düşünme" yapay zeka için gerçekten ne anlama geliyor? Biçimi özle mi karıştırıyoruz?

Konuşma sistemlerini çevreleyen coşkunun ortasında, The Illusion of Thinking bir meydan okuma sunuyor. Ve tartışmayı bitirmese de, şu anın en çok tekrarlanan fantezilerinden birini sorgulatıyor: Makinelerin sonunda düşünmeye başladığı.

Clarin

Clarin

Benzer Haberler

Tüm Haberler
Animated ArrowAnimated ArrowAnimated Arrow